Una jueza bloquea por ahora el veto del Pentágono a Anthropic y complica su intento de apartarla de los contratos militares
por Edgar OteroUna jueza federal de Estados Unidos ha bloqueado temporalmente la designación de Anthropic como riesgo para la cadena de suministro, una medida con la que el Pentágono buscaba apartar a la compañía de determinados contratos militares. La resolución no es definitiva, pero sí supone un revés importante para la estrategia del Departamento de Guerra (antes, Departamento de Defensa), que intentaba justificar esa etiqueta como una cuestión de seguridad nacional y no como una represalia por las restricciones éticas que Anthropic mantiene sobre el uso de su tecnología.
La magistrada Rita Lin ha dado la razón, al menos de forma provisional, a la tesis central de la empresa. La tesis es que la Administración está castigando a Anthropic por su postura pública sobre seguridad en inteligencia artificial más que por un riesgo real e inmediato para los sistemas militares. En su auto, la jueza apunta a que el expediente permite inferir que la compañía estaba siendo penalizada por haber cuestionado en público la posición contractual del Gobierno, un argumento especialmente delicado porque abre la puerta a una posible vulneración de derechos constitucionales.
El conflicto no surgió de la nada. A finales de febrero, ya se supo que el Pentágono había amenazado a Anthropic con destruir su negocio si no eliminaba restricciones de uso ligadas a dos líneas rojas muy concretas: la vigilancia masiva de ciudadanos estadounidenses y el desarrollo de armas autónomas letales sin supervisión humana. Anthropic se negó a aceptar cláusulas de “cualquier uso legal”. Desde entonces, la situación no ha dejado de escalar.
La justicia frena una designación con enormes consecuencias para el negocio de Anthropic
La importancia de esta medida cautelar va mucho más allá del contrato directo con el Departamento de Defensa. La designación como riesgo para la cadena de suministro podía tener un efecto expansivo sobre todo el ecosistema de defensa, porque Claude es el único modelo de IA con certificación Impact Level 6 para operar en redes completamente clasificadas del Pentágono. Eso significa que contratistas y socios tecnológicos con trabajo sensible en ese entorno dependían de su continuidad o, al menos, de una transición ordenada.
De hecho, cuando Anthropic anunció que llevaría el caso a los tribunales, ya defendía que la etiqueta impuesta por el secretario de Defensa Pete Hegseth era una decisión legalmente débil y desproporcionada. En su recurso contra la designación como riesgo para la cadena de suministro, la compañía argumentó que esa herramienta existe para proteger al Gobierno y no para castigar a un proveedor que discrepa sobre los límites del uso militar de la IA.
La resolución actual no cierra el litigio, pero sí reduce por ahora la presión más inmediata sobre Anthropic. El Pentágono mantiene que la compañía representa un problema operativo porque sus restricciones podrían generar incertidumbre en pleno despliegue militar. Su posición quedó reflejada también cuando respondió en los tribunales que las líneas rojas de Anthropic suponen un riesgo inaceptable para la seguridad nacional, al sostener que una empresa privada no puede reservarse la posibilidad de limitar el uso de su tecnología en escenarios de combate.
El caso ya no va solo de contratos: también define quién pone los límites a la IA militar
El trasfondo del caso es más amplio que una disputa comercial. Lo que se está discutiendo es quién fija las fronteras del uso militar de la IA: si el proveedor que desarrolla el modelo, con restricciones éticas y técnicas, o el Estado que contrata esa capacidad para defensa, inteligencia y operaciones sensibles. Ahí está precisamente la dimensión política y jurídica de una batalla que puede acabar marcando precedentes para todo el sector.
La ironía del enfrentamiento también ha pesado en la percepción pública del caso. Apenas unos días después de romperse las negociaciones, trascendió que Estados Unidos había utilizado la IA de Anthropic para planificar el ataque contra Irán horas antes de ordenar el cese de su tecnología en sistemas federales. Ese episodio debilitó parte del relato oficial, porque mostraba que la misma herramienta presentada después como una amenaza seguía siendo útil en una de las operaciones más delicadas del momento.
Por ahora, la jueza no ha invalidado de forma definitiva la actuación del Pentágono, pero sí ha dejado claro que la base de esa decisión merece un examen mucho más estricto. Eso da oxígeno a Anthropic y complica el intento del Gobierno de convertir una discrepancia sobre usos permitidos en una cuestión cerrada de seguridad nacional. A corto plazo, el fallo protege a la compañía de un golpe potencialmente multimillonario. A medio plazo, este caso puede convertirse en una referencia clave sobre hasta dónde llega el poder del Estado para imponer condiciones militares a los laboratorios de IA.
Fin del Artículo. ¡Cuéntanos algo en los Comentarios!




